Digital Services Act (DSA) : Tout savoir sur le règlement européen des services numériques

Le Digital Services Act (DSA) est une réglementation européenne imposant des normes strictes aux grandes plateformes pour lutter contre les contenus illégaux ou haineux. Il encadre le signalement, la modération et prévoit des sanctions, soulevant des débats sur la liberté d'expression et la censure.
Sur cette page
- Qu'est-ce que le Digital Services Act (DSA) ?
- DSA : quelles sont les nouvelles règles pour les services numériques ?
- Depuis juillet 2025, des lignes directrices pour mieux protéger les mineurs
- Digital Services Act : comment seront surveillées ces nouvelles règles sur Internet?
- Quelles sont les sanctions en cas de non-respect du DSA ?
- DSA : entre liberté d’expression en ligne et censure
- Comment signaler un contenu illégal en ligne ?
Qu'est-ce que le Digital Services Act (DSA) ?
Le Digital Services Act (DSA ou Règlement sur les services numériques) est une réglementation européenne entrée en vigueur en août 2023. Elle impose aux plateformes numériques (ex. X, Google, Facebook, TikTok, Booking.com, AliExpress,Youtube, etc.) des mesures strictes en matière de transparence et de modération.
Dans la même logique que le RGPD, le DSA vise à harmoniser la législation en matière de services numériques.
Cette réglementation a été élargie à l’ensemble des acteurs du web sur le marché européen en février 2024 . C’est-à-dire qu'elle s'applique :
- aux fournisseurs d’accès à Internet ;
- aux services cloud ;
- aux plateformes en ligne, réseaux sociaux, plateformes de partage de contenus, de voyage, d’hébergement ;
- aux très grandes plateformes en ligne ;
- aux très grands moteurs de recherche.
Quel est le but du DSA ?
Cette réglementation exige des plateformes en ligne de nouvelles obligations pour protéger l'internaute du contenu illégal, de la désinformation et des abus. Elle vise à éviter la diffusion sur Internet de tout contenu illicite et de protéger les citoyens européens.
La règle de base du Digital Services Act est simple : tout ce qui est considéré comme illégal dans la vie réelle doit également l'être dans la vie numérique (en ligne).
Responsabilité des acteurs du web
Pour cela, le DSA demande que les acteurs du web se responsabilisent. Il s'agit de faire en sorte que les plateformes numériques (comme Google ou Facebook) développent des mesures efficaces pour lutter contre la diffusion de contenus illicites, préjudiciables ou de produits illégaux.
Équilibre entre liberté d'expression et lutte contre les abus
Le but étant d'arriver, à long terme, à un équilibre entre la liberté d'expression et la lutte contre les abus et les menaces contre les droits fondamentaux, ainsi que la démocratie elle-même.
La mise en œuvre du DSA tend à mieux protéger les internautes européens contre les dérives en ligne, mais aussi contre les risques de manipulation de l'information.
Objectifs du DSA
Parmi les objectifs phares du DSA figure également celui de protéger la liberté d'expression et les droits des consommateurs. Afin d'atteindre ces objectifs, le DSA prévoit de nombreuses mesures, dont la mise en place d'un outil pour signaler les contenus illicites.
DSA : quelles sont les nouvelles règles pour les services numériques ?
Signalement et modération de contenu
Les plateformes en ligne ont notamment pour obligation de mettre à la disposition des internautes un outil dédié au signalement des contenus ou produits illicites. Lorsqu'un contenu illicite est signalé via cet outil, ces mêmes plateformes sont invitées à intervenir rapidement pour le retirer ou en bloquer l'accès.
Les plateformes doivent par ailleurs être transparentes dans les décisions en matière de modération de contenus. Ainsi, elles ont l'obligation de communiquer par exemple à leurs utilisateurs les raisons pour lesquelles elles ont supprimé leur contenu ou pourquoi l’accès à un compte a été restreint.
Les fournisseurs de services d’hébergement, y compris les plateformes en ligne, ont l’obligation de fournir des motifs clairs et spécifiques pour leurs décisions de modération de contenu.
Elles ont pour obligation d'informer l'internaute du fonctionnement des algorithmes utilisés dans le but d’émettre des recommandations publicitaires. Les utilisateurs doivent ainsi comprendre pourquoi certains contenus leur sont suggérés ou pourquoi certaines publicités leur sont destinées.
Ils doivent avoir la possibilité de modifier les paramètres algorithmiques.
En outre, les plateformes doivent être transparentes sur leur processus de vérification, de gestion et de traitement des réclamations. La décision de retirer un contenu illégal peut être directement prise par l’algorithme qui l’aura détecté. En revanche, quand le contenu aura été retiré, une intervention humaine devient obligatoire au stade du recours contre cette décision par l’utilisateur.
Depuis juillet 2025, des lignes directrices pour mieux protéger les mineurs
Le 14 juillet 2025, la Commission européenne a publié des lignes directrices pour encadrer l’application de l’article 28 du DSA, qui impose aux plateformes de protéger les mineurs en ligne des contenus dangereux, des fonctionnalités addictives et des contacts indésirables.
Ces recommandations, bien que non contraignantes juridiquement, serviront de référence pour les contrôles de conformité avec l'article 28 du DSA. Les coordinateurs pour les services numériques, de même que les régulateurs nationaux (voir ci-dessous), peuvent s'en inspirer. En revanche, ce n'est pas parce qu'une plateforme respecte ces mesures qu'elle est forcément conforme.
Les principales recommandations de la Commission sont les suivantes:
- Paramétrer les comptes des mineurs en mode privé par défaut, afin de limiter les contacts non sollicités et que ses données personnelles soient cachées;
- Adapter les algorithmes de recommandation pour éviter les spirales de contenus problématiques et donner plus de contrôle aux jeunes utilisateurs ;
- Permettre aux mineurs de bloquer des utilisateurs, et interdire leur ajout à des groupes ou discussions privées sans leur consentement explicite ;
- Désactiver par défaut certaines fonctionnalités addictives (accusés de lecture, lecture automatique des vidéos, défilement infini, notifications…) ;
- Interdire le téléchargement ou les captures d’écran de contenus publiés par des mineurs ;
- Mettre en place des outils efficaces de vérification de l’âge, surtout pour les plateformes à contenu sensible (pornographie, jeux d’argent, etc.) ;
- Veiller à ne pas exploiter le manque d'éducation commerciale des enfants en les exposant à des pratiques commerciales manipulatrices (dépenses non désirées, comportements addictifs, etc.)
- Introduire des mesures visant à améliorer les outils de modération et de compte rendu, nécessitant un retour d’information rapide, et des exigences minimales pour les outils de contrôle parental.
Ces mesures visent à mieux protéger les enfants contre des risques variés comme la cyberintimidation, les pratiques commerciales abusives, les contenus sexualisés ou encore les contacts non sollicités. Elles s'appliquent à toute plateforme accessible aux mineurs, c'est-à-dire:
- dont les conditions générales permettent aux mineurs d’utiliser le service;
- dont les services s’adressent aux mineurs ou dont l’audience est composée majoritairement de mineurs;
- ou dès lors que la plateforme sait qu’une part de ses utilisateurs sont mineurs.
À ce titre, les services réservés aux adultes (comme les sites pornographiques) et qui limitent l’accès à leurs services aux plus de 18 ans, sont considérés comme accessibles aux mineurs si aucune mesure efficace n’empêche réellement les mineurs d’y accéder.
Vers le haut de la pageDigital Services Act : comment seront surveillées ces nouvelles règles sur Internet?
Audit et rapports de transparence
Ces plateformes devront se soumettre à un audit annuel indépendant pour vérifier qu'elles remplissent bien leurs obligations.
En outre, pour les grandes plateformes en ligne (de plus de 45 millions d’utilisateurs mensuels), elles devront remettre un rapport de transparence tous les 6 mois sur leurs efforts en matière de modération de contenu.
Voici comment LinkedIn, Snapchat ou Zalando respectent le DSA
Un coordinateur des services numériques pour veiller au respect du DSA
La réglementation sur les services numériques ou DSA instaure l'existence d'une autorité indépendante désignée par chaque État membre de l'UE : le coordinateur des services numériques.
Ce dernier a pour rôle de veiller au respect du DSA par les acteurs du numérique sur son territoire.
En Belgique, 4 autorités compétentes ont été désignées :
- L’IBPT a été désigné pour le niveau fédéral.
- Le Vlaamse Regulator voor de Media (VRM) a été désigné par la Communauté flamande.
- Le Conseil Supérieur de l’Audiovisuel (CSA) a été désigné par la Fédération Wallonie-Bruxelles.
- Le Medienrat a été désigné par la Communauté germanophone.
C'est l’IBPT qui a été désigné en tant que coordinateur national.
Introduction des signaleurs de confiance
Quelles sont les sanctions en cas de non-respect du DSA ?
En cas de non-respect, des amendes pourront tomber jusqu'à 6 % du chiffre d'affaires mondial, voire une interdiction d'offrir ses services sur le territoire européen.
En cas de non-respect, les plateformes et moteurs de recherche s'exposent à des astreintes et des sanctions.
En cas de récidive ou de violation grave au DSA, les plateformes sont susceptibles de ne plus pouvoir exercer leur activité sur le marché européen.
DSA : entre liberté d’expression en ligne et censure
Dans ce contexte, un débat houleux s’ouvre : le risque de mettre en place une censure européenne sur Internet, certains ayant d'ores et déjà dénoncé une certaine "officialisation de la censure" puisque les États et l'Europe pourront réguler certains contenus du web.
Un équilibre délicat est donc à trouver entre la liberté d'expression, la modération et la censure. Où placer la limite..?
Comment signaler un contenu illégal en ligne ?
Haine, manipulation, désinformation, contrefaçons... sont des dérives de plus en plus courantes sur le web et en particulier sur les réseaux sociaux.
Si vous êtes confronté à un discours haineux ou illégal, ou à des produits illégaux, n’hésitez pas à le signaler.
On vous explique dans notre article comment procéder.
Signalez un contenu illégal en ligne